• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "프로젝션 매핑"에 대한 통합 검색 내용이 51개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
헥사곤, SIMTOS 2024에서 스마트 줌 기능 탑재한 신규 구조광 스캐너 소개
헥사곤 매뉴팩처링 인텔리전스(헥사곤 MI)가 4월 1일부터 5일까지 일산 킨텍스에서 열리는 ‘SIMTOS 2024(이하 심토스)’에 참가해 올해 3월에 출시한 신규 스마트 구조광 스캐너를 국내 최초로 선보인다고 밝혔다. 이번 전시회에서 공개될 스마트 구조광 스캐너 ‘스마트 스캔 VR800(SmartScan VR800)’은 자동화 스캔 셀에 최적화된 스캐너이다. 이 제품은 듀얼 스테레오 카메라와 기계식 광학 줌인 프로젝션 장치를 결합한 멀티카메라 설정을 지원한다. 이를 통해 렌즈 교체 없이 빠르게 스캔 영역 전환이 가능하며, 높은 정확도를 제공한다. VR800은 로봇 또는 코봇 기반의 자동화 검사 시스템에 통합되어 활용할 수 있으며, 자동차 제조를 포함한 금형, 캐스팅, 적층제조 등을 이용하는 제조 공정에서 적용 가능하다.     한편, 헥사곤은 심토스 방문객이 제조 공정 전반에 걸친 자사의 생산 소프트웨어 제품군을 경험할 수 있도록 정밀 부품 가공 및 품질 검사 프로세스를 전시할 예정이다. 프로세스는 CAM 프로그래밍, 종합 G 코드 검증, 머신 프로브 시스템, CT 데이터 분석 및 품질 검사로 이뤄지며, 헥사곤은 프로덕션 소프트웨어, 공작기계 프로브, CT 데이터 분석 및 품질 검사 솔루션을 선보인다. 부스에서는 솔루션 전문가들이 국내 중소형 제조기업과 대기업 모두를 대상으로 다양한 사양과 제품군에 대한 설명과 맞춤형 컨설팅을 제공할 예정이다. 헥사곤 매뉴팩처링 인텔리전스 코리아의 성브라이언 사장은 “로봇 도입이 가속화되는 글로벌 제조 현장의 디지털 전환에 발맞춰, 국내 기업도 빠르게 제조 현장을 재편하고 있다. 새로운 로봇 및 디지털 제조 기술을 한곳에서 살필 수 있는 심토스 현장에서 새로 출시한 헥사곤의 스캐너를 비롯해 자동화에 필요한 기술과 솔루션을 두루 경험하길 바란다”며, “이번 행사에서 여러 관계자와 만나, 각 현장에 꼭 필요한 최선의 디지털 혁신 전략과 솔루션을 찾아 효율적으로 실행할 수 있도록 최선을 다해 지원하겠다”고 말했다.
작성일 : 2024-03-26
[케이스 스터디] 건축 시각화 워크플로를 위한 리얼타임 기술과 BIM
몰입형 실시간 경험으로 사실적인 결과물 구현   최근 인터랙티브와 실시간 렌더링 기능의 이점으로 리얼타임 기술을 활용하는 AEC 전문가들이 증가하고 있다. 리얼타임 기술을 활용하면 각기 다른 CAD 설계 툴로 생성한 여러 개의 서로 다른 파일 유형을 가져온 후 해당 데이터를 리얼타임 엔진에서 사용할 수 있도록 빠르게 변환할 수 있다. 이번 호에서는 원활한 건축 시각화 워크플로 구축을 위한 리얼타임 기술과 BIM 툴에 대해 소개한다. ■ 자료제공 : 에픽게임즈   ▲ Zaha Hadid Architects, Line Creative(이미지 출처 : 에픽게임즈)    건축, 엔지니어링 및 건설(Architecture, Engineering & Construction, AEC) 전문가들은 오랫동안 건축 설계를 제작하기 위해 다양한 건축 소프트웨어 패키지를 사용해왔다. 점차 BIM 및 CAD 툴의 생태계가 활발히 조성되었고, 수년간 아키캐드(ARCHICAD), 레빗(Revit), 스케치업 프로(SketchUp Pro), 릭캐드(RIKCAD), 라이노(Rhino) 등이 건축 워크플로에서 주로 사용되는 툴로 자리잡았다. 지금은 점점 더 많은 AEC 전문가들이 인터랙티브 기능과 실시간 렌더링 기능 때문에 리얼타임 기술에 눈을 돌리고 있다. 이제 각기 다른 CAD 설계 툴로 생성한 여러 개의 서로 다른 파일 유형을 가져온 후 해당 데이터를 리얼타임 엔진에서 사용할 수 있도록 빠르게 변환할 수 있다. 이로써 건축가는 완전한 인터랙티브 기능과 몰입도라는 강점을 가진 워크플로에서 자신이 주로 사용하는 익숙한 설계 소프트웨어를 원활히 사용할 수 있게 되었다. 기존에 정립된 CAD 툴은 게임 엔진과 무리 없이 상호 작용하고 VR 경험 제작, 간편한 디자인 프레젠테이션, 디지털 트윈 구축 기능 등의 리얼타임 기능이 건축가의 워크플로를 현저하게 개선해 신기능도 손쉽게 사용할 수 있게 해준다.    데이터스미스  에픽게임즈는 AEC 분야에서 트윈모션, 언리얼 엔진과 같은 리얼타임 툴의 활용도가 매우 높아질 것을 예측하고, CAD와 BIM을 리얼타임 파일 형식으로 변환하는 작업을 품질, 속도, 정확성 면에서 개선하기 위해 노력을 기울였다. 그 결과 건축가가 선호하는 설계 툴과 강력한 리얼타임 렌더링을 하나의 워크플로에서 원활히 사용할 수 있게 되었다.  2018년 에픽게임즈는 BIM 및 CAD 데이터를 언리얼 엔진 형식으로 변환하는 데이터스미스를 출시했다. 데이터스미스는 레빗, 3ds Max, 스케치업, 솔리드웍스, 라이노 등 다양한 종류의 프로그램에서 가져온 신을 변환할 수 있도록 설계되었다.  사용자가 무엇을 익스포트할지 선택하면 데이터스미스는 인스턴스 보존과 같은 뛰어난 변환을 수행하는데, 무엇보다도 나중에 소프트웨어 프로그램에서 설계를 변경했을 때 언리얼 엔진에 다시 익스포트한 후 버튼 하나만 클릭하면 머티리얼이나 다른 속성을 재적용할 필요 없이 전체 변경 사항이 신에 적용된다. 일부 건축 소프트웨어 형식은 메타데이터를 임포트할 수도 있다. 가령 바닥 오브젝트의 경우 그 구조 머티리얼뿐만 아니라 물리 속성(예 : 강도, 열전달 계수)도 저장할 수 있다. 에픽게임즈는 계속해서 사용자 피드백에 따라 기존 컨버터를 개선하고, 신규 컨버터도 제작해 왔다.   VR 경험  BIM 및 CAD 데이터가 빠르게 리얼타임 엔진에 편입되면서 몰입형 경험을 만들 수 있는 새로운 기회가 생겨났다. 트윈모션과 언리얼 엔진은 가상현실 경험 기능을 포함하며, 이 기능 덕분에 인터랙티브 VR을 통한 협업형 검토가 가능해졌다. 유명한 건축회사 중 하나인 자하 하디드 아키텍츠(Zaha Hadid Architects)의 경우 언리얼 엔진을 디자인 파이프라인의 필수 요소로 포함시켰다. 그래서 첫 콘셉트 드로잉부터 최종 고객 승인까지 전 과정에서 인터랙티브 VR 워크스루를 생성하고 활용하는데, 이 워크플로가 클라이언트의 비전을 그 어느 때보다도 더 빠르고 의견 충돌 없이 시각화를 할 수 있기 때문이다.   ▲ ZHVR Group(이미지 출처 : Zaha Hadid Architects)   건축 스튜디오 KA 디자인웍스(KA DesignWorks) 역시 트윈모션과 HTC VIVE를 결합하여 소프트웨어의 VR 기능을 활용하고 있다. 그들은 로키산맥의 장관을 배경으로 흥미로운 건물을 재단장하는 최근 프로젝트에서 VR 기능 덕분에 2D 렌더에서는 미처 모르고 지나칠 수 있었던 부분을 발견해 설계 개선 사항을 적용할 수 있었다.   ▲ 이미지 출처 : KA DesignWorks    모든 것을 간단하게, 트윈모션  건축가들에게 트윈모션은 리얼타임 렌더링 솔루션의 역할을 맡는다. 트윈모션은 프레젠테이션에 초점을 맞추며 모든 것을 굉장히 간단히 만들도록 설계되었다. 예를 들어 영국의 왕립원예협회(Royal Horticultural Society)는 최근 트윈모션을 사용하여 154에이커(약 62만 3215제곱미터) 규모의 새로운 정원을 VR 워크스루로 제작하여, 실제 건축 공사에 착수하기도 전에 디자이너가 전체 프로젝트를 둘러볼 수 있는 기회를 마련했다.   ▲ 이미지 출처 : The University of Salford, THINKlab   트윈모션은 원클릭으로 바로 아키캐드, 레빗, 스케치업 프로, 릭캐드, 라이노와 동기화되는 기능을 제공하기 때문에 건축가는 CAD 또는 BIM 디자인에서 VR로 순식간에 이동할 수 있다. 네덜란드 소재의 디자인 시각화 업체인 플랜34(PLAN34)는 트윈모션을 사용하여 관계자 회의에서 도시 개발 디자인을 발표했는데, 리얼타임으로 프로젝트를 안내하여 갖가지 시점에서 디자인을 선보일 수 있었다.  플랜34에서는 고객이 직접 살펴볼 수 있도록 프레젠테이션을 제공할 때 트윈모션 프레젠터를 사용한다. 플랜34는 이 기능을 통해 고객과 관계자가 트윈모션을 설치하지 않고도 개별 프로젝트를 독립형 뷰어에서 볼 수 있도록 작은 실행 파일을 공유할 수 있다. 시각화와 간단한 인터랙션에 치중된 프로젝트에서 디자이너는 트윈모션으로 전보다 훨씬 짧은 시간에 공동으로 디자인하는 경험을 가질 수 있다.   ▲ 이미지 출처 : PLAN34   데이터 기반 3D 모델 전통적인 렌더러와 달리 언리얼 엔진은 프로그래밍 가능한 로직을 제공한다. 데이터는 오브젝트 메타데이터에서 오든 데이터베이스로 오든 언리얼 엔진으로 가져와 머티리얼, 애니메이션, 오브젝트 비저빌리티, 파라미터로 제어되는 모든 것에 변경 사항을 적용하도록 할 수 있다.  이 기능은 디지털 트윈 건물부터 전체 도시까지, 물리적 존재의 가상 버전을 사용하여 사물 인터넷(IoT) 데이터와 같은 요소를 분석 후 실제 구조를 모니터링하거나 제어하는 곳이라면 어디든지 다양한 인터랙티브 용도로 활용될 수 있다. 그 혁신적인 모범 사례가 바로 이머자(IMERZA)가 제작하여 3D 프린터로 출력한 미국 플로리다주의 탬파시 중심가 미니어처이다. 이 프로젝트에서는 프로젝션 매핑과 리얼타임 기술을 접목해 리얼타임 데이터를 시각화하여 부동산을 마케팅하고 도시 개발을 평가하는 특별한 방식을 고안해냈다.   ▲ 이미지 출처 : SPP & Imerza   교육 및 학습 옵션 CG아키텍트(CGarchitect)의 최근 설문 결과에 따르면 현재 렌더링 엔진을 테스트하고 있는 응답자의 43%가 언리얼 엔진으로 실험 중이고, 22%가 트윈모션을 시험 중이라고 한다. 손쉽게 활용할 수 있는 여러 학습 리소스가 있어 신규 사용자가 툴을 배우고 리얼타임 렌더링을 살펴보는데 유용하기 때문이다. 에픽게임즈에서는 온라인 러닝을 통해 트윈모션을 시작하고 사용하는 기초를 다루는 3부작 러닝 강좌를 제공하고 있다. 전체 개요에서는 유저 인터페이스와 툴, 그리고 아키캐드, 레빗, 스케치업, FBX 콘텐츠를 임포트하는 방법을 설명하고, 다음으로 머티리얼, 랜드스케이프, 주위 환경, 라이팅을 사용하여 트윈모션 프로젝트에 생동감을 더하는 법을 배울 수 있다. 마지막으로 툴을 통한 이미지, 영화, 건축 단계 애니메이션, VR 애플리케이션의 제작법에 대해 배운다. 언리얼 엔진 초보자는 언리얼 엔진에 레빗 모델을 익스포트하는 방법이나 툴세트 사용 시 건축 외관 제작과 관련하여 알아야 할 모든 것을 다루는 온라인 강좌를 비롯해 방대한 튜토리얼을 보면서 사용법을 익힐 수 있다.   ▲ 이미지 출처 : 51WORLD   시각화에 대한 전념 에픽게임즈는 끊임없는 연구와 설문 조사로 사용자에게 필요한 것을 파악해 가며 변환과 렌더링 프로세스라는 양면에 공을 들이고 있다. 언리얼 엔진은 이제 최상급 오프라인 렌더러에 비견되는 기능들(소프트 섀도와 레이 트레이스 리플렉션 등)을 제공한다. 변환 툴과 관련해서 데이터스미스는 지난 2년간 여러 번의 자체 업데이트를 거쳐 이제 20가지 이상의 CAD 소프트웨어 패키지와 연동되고 있다. 기존 오프라인 렌더러의 불안정한 변환 프로세스 때문에 불편해할 필요 없이 매끄럽게 변환되는 리얼타임 툴로 이전하면 시간도 더 절약되고 만족스러우며, 능률적인 워크플로를 이용할 수 있다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2021-01-29
[케이스 스터디] 카니발 AR 온라인 론칭쇼 만든 비브스튜디오
언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스 구현    현대자동차그룹 기아자동차는 온라인 론칭쇼 ‘카니발 온 AR(Carnival on AR)’을 통해 카니발 자동차의 새로운 모델을 공개했다. 글로벌 스토리텔링 기업인 비브스튜디오(Vive Studios)는 이 온라인 론칭쇼에 언리얼 엔진의 AR 기술을 접목해 실제 자동차와 같은 수준 높은 퀄리티를 선보였는데, 언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하고, 실사 수준의 자동차를 시각화하면서 론칭쇼를 성공적으로 이끌었다. ■ 자료제공 : 에픽게임즈   ▲ 출처 : 4세대 카니발 AR 온라인 론칭쇼 메이킹 필름   비브스튜디오는 상상력과 기술의 한계에 도전하며 VR 휴먼 다큐멘터리 ‘너를 만났다’, 아이돌 그룹 아이즈원의 XR 콘서트 ‘ONEIRIC THEATER’와 같이 VR, AR, VFX 등 다양한 분야에서 각광받는 작품들을 제작해왔으며, 이번 자동차 AR 론칭쇼까지 성공적으로 마무리하며 호평을 받고 있다.  ‘카니발 온 AR’은 6년 만에 출시된 ‘카니발’ 시리즈의 최신 모델을 고객들에게 비대면으로 소개하는 프로젝트로, 현장에서 자동차를 직접 보고 만질 수 있는 기존의 오프라인 론칭쇼를 진행하기 어려운 현 상황을 반영해 온라인에서도 카니발의 특징과 장점들을 쉽고 흥미롭게 이해할 수 있는 간접 경험을 충분히 제공하도록 했다. 론칭쇼의 결과는 매우 성공적이었다. 전 세계 시청자들에게 실시간 스트리밍 서비스를 통해 공개되었는데, 국내 온라인 론칭쇼 사상 최고 접속률인 15만 5000회를 기록했으며 3300명에 달하는 최대 동시접속자 수를 기록했다. 또한 실시간 렌더링 기술을 활용한 AR 온라인 론칭쇼의 새로운 가능성을 업계에 제시했을 뿐 아니라, 실제와 증강현실의 구분이 어려울 정도로 높은 퀄리티를 고객들에게 선사하며 새로운 경험을 제공했다.  비브스튜디오의 성공적인 론칭쇼의 중심에는 언리얼 엔진이 있었다. 비브스튜디오가 4세대 카니발 AR 론칭쇼에서 언리얼 엔진을 어떻게 활용했는지 구체적으로 알아보자.     프로젝트 콘셉트 카니발 온 AR 프로젝트에서 비브스튜디오는 라이브 방송과 같은 생생함, 발표자와 자동차 사이의 인터랙션, 제품의 브랜드 철학을 모두 보여주기 위해 새로운 크리에이티브 솔루션을 만들었다. 공간과 사람, 정보와 경험 그리고 세대를 연결하는 ‘커넥팅 허브’라는 카니발의 철학을 론칭쇼 자체에도 담기 위해 론칭쇼가 펼쳐지는 스튜디오 공간에도 실제 자동차와 증강현실로 구현된 자동차, 가상현실 공간에서 등장하는 자동차라는 3개의 차원이 연결되는 콘셉트를 적용했다. 그리고 현실과 나란히 펼쳐지는 증강현실과 가상현실을 구현하기 위해 언리얼 엔진을 활용했다.     기술적 목표 비브스튜디오는 이번 이벤트를 준비하면서 세 가지 목표를 설정했다. 첫 번째, 시청자가 실제와 가상의 구분이 어렵다고 느낄 만큼의 실사 수준의 자동차를 시각화하는 것이었다. 두 번째, 시청자와 고객들이 AR과 가상현실을 통해 규모 있는 대형 이벤트로 받아들이게 하는 것이었다. 따라서 넓고 텅 빈 무대를 역동적으로 연출하기 위해 실제 자동차 1대를 제외한 모든 요소를 언리얼 엔진으로 실시간 렌더링했다. 실사 수준의 AR 자동차의 디테일에 집중하는 동시에 무대 위 가상 LED월 너머로 펼쳐지는 제3의 공간을 실시간으로 시각화해 더욱 확장된 무대를 보여주고자 했다.     세 번째 목표는 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하는 것이었다. AR 촬영은 트래킹 장치, 실시간 합성 프로그램, PC 간 영상 동기화 등 일반 영상 촬영 현장에서 잘 사용되지 않는 여러 기술과 장비들이 어우러져 매우 복잡하고 큰 규모의 협업이 필요하며 현장에서는 장치 간 충돌이나 연출 변경, 발표자의 실수 등 예측하기 어려운 많은 변수들이 존재한다. 따라서 현장에서 발생하는 긴급한 이슈에 대한 빠른 대응이나 매끄러운 촬영 진행을 위해서는 전문적인 인터페이스와 제어 기능들이 필요했다. 때문에 제로 덴서티(Zero Density)나 픽스토프(Pixotope)와 같은 안정적인 기존 상용 솔루션 대신에 자유로운 기능 확장 및 빠른 현장 대응을 고려해 언리얼 엔진 기반의 자체 AR 솔루션인 V2Xr을 구현하기로 결정했다. 이 같은 도전은 언리얼 엔진의 실시간 연동 기능, 외부 영상과의 합성이 용이한 점과 함께 에픽게임즈에서 제공하는 다양한 플러그인이 있기에 가능했다.    AR 솔루션 V2Xr의 구성 비브스튜디오의 자체 AR 솔루션인 V2Xr은 시스템 전반의 제어와 운영을 담당하는 원격 제어 인터페이스인 라이브콤프와 AR이나 LED월을 위한 언리얼 엔진 기반의 시각화 프로그램인 XR 플레이어로 구성된다. 라이브콤프와 XR 플레이어는 네트워크 연결을 통해 매 순간 상태 및 명령을 주고받으면서 시각화 장면들을 제어하게 되는데, 특히 언리얼 엔진의 강력한 리얼타임 렌더링에 힘입은 XR 플레이어로 기술적 목표를 달성할 수 있었다.   XR 플레이어     라이브콤프의 제어 신호를 받아 시퀀서 헤드 위치를 변경하고 AR을 위한 영상 합성을 실행하는 등의 다양한 작업들이 XR 플레이어 안에서 이루어진다. XR 플레이어는 역할에 따라 AR 플레이어, SC 플레이어 두 가지 타입으로 나눌 수 있는데, AR 플레이어는 말 그대로 카메라 영상과 CG 영상을 실시간으로 합성해주는 역할을 하며, SC 플레이어는 LED월이나 프로젝션 월에 리얼타임 렌더링 그래픽이나 일반 영상을 실시간으로 출력하는 기능을 담당한다. 각 플레이어는 별도의 PC에서 독립적으로 실행되며, AR 카메라나 LED월의 개수에 따라 렌더링 PC를 추가할 수 있다.      AR 플레이어 AR 플레이어는 외부 트래킹 장치를 통해 카메라의 움직임 정보를 받아 CG에 반영한 후 실제 카메라 영상과 실시간으로 합성하는 기능을 제공한다. 이때 합성 방식이나 렌즈 왜곡을 보정하는 기능은 트래킹 장치의 통신 프로토콜 방식에 의해 결정되는데, V2Xr에서는 스타이프(Stype)의 통신 프로토콜과 범용 프로토콜인 FreeD 모두를 지원한다. 스타이프의 통신 프로토콜은 스타이프가 제공하는 언리얼 엔진 플러그인을 통해 합성과 렌즈 보정이 이루어지며, FreeD는 언리얼 엔진의 컴포셔를 기반으로 합성과 렌즈 보정을 진행하게 된다.   영상 합성 및 렌즈 왜곡 보정 트래킹 장치가 언리얼 엔진용 합성 플러그인을 제공하지 않거나 특수한 기능을 추가해야 하는 경우, FreeD 프로토콜을 통해 카메라 상태 정보를 수신해 직접 합성 기능을 구현할 수 있다. 물론 렌즈 왜곡 보정 기능도 꼭 필요하다. 이때 언리얼 엔진이 기본 제공하는 렌즈 디스토션 플러그인과 컴포셔는 이 같은 실시간 AR 합성 시 매우 유용하게 사용될 수 있다.   ▲ 캘리브레이션 데이터로 렌즈 왜곡을 보정   AR 합성 시 렌즈의 왜곡을 효과적으로 보정하는 과정은 매우 중요하지만 아주 어려운 작업이다. 특히, B4마운트 기반 방송용 렌즈의 경우 줌에 따라 화각의 차이가 매우 크며, 광각에서 상당한 렌즈 왜곡이 발생한다. 포커스 위치에 따라서도 왜곡의 양상이 달라지기 때문에 다수의 캘리브레이션 데이터를 만들고 영상을 합성할 때 적절한 보정 수치를 적용해 주어야 한다. 이를 위해 AR 플레이어에서는 렌즈 디스토션 플러그인을 통해 매 프레임 왜곡 보정 수치를 적용한 렌더 타깃을 생성하고, 컴포셔에서는 생성된 이미지를 기반으로 카메라 영상의 UV를 변형하는 방법으로 왜곡을 보정한다.     CG 색상 조정 AR 촬영 현장에서 주변 조건에 맞도록 CG의 색상 톤을 조정하는 기능은 매우 중요하다. 물리적인 조명의 연출 콘셉트나 상태에 따라 가장 적절한 색상 톤을 CG에 적용해야 이질감 없이 자연스러운 합성이 이루어지기 때문에, 상황별로 지정된 색상 톤 정보들을 읽어서 화이트 밸런스와 감마, 노출 등 언리얼 엔진이 기본 제공하는 포스트 프로세스의 항목들에 즉시 반영할 수 있는 기능을 구현했다. 이 기능으로 라이브콤프의 타임라인에 키 포인트를 생성하여 언리얼 엔진 콘텐츠에 색상 정보를 실시간으로 반영할 수 있게 되어 더욱 직관적으로 현장에서 색상 이슈에 대응할 수 있었다.     SC 플레이어 SC 플레이어는 대형 LED월이나 프로젝션 월에 직접 출력되는 그래픽을 연출하기 위해 사용된다. 일종의 인 카메라 촬영을 위한 플레이어로서, 외부에서 카메라 움직임을 받아 언리얼 엔진에서 실시간으로 렌더링하게 된다. 이번 기아자동차 AR 론칭쇼에서는 물리적인 LED월을 설치하지 않고 SC 플레이어의 영상을 AR 플레이어에서 받아 마치 가상의 대형 LED월이 현장에 있는 것처럼 AR로 시각화했다.     기본적으로 AR 플레이어와 SC 플레이어의 카메라가 상호 동기화되어 함께 움직일 때 시각적 공간감이 극대화되기 때문에 SC 플레이어에서도 외부 카메라의 트래킹 정보를 실시간으로 받아 CG에 반영할 수 있으며, 트래킹 데이터를 수신하는 여러 방식을 제공한다. AR 플레이어와 마찬가지로 장비 제조사의 플러그인을 사용하거나 FreeD 데이터를 직접 파싱하여 사용할 수 있다. 또는 AR 플레이어의 소켓 채널에서 UDP 패킷으로 카메라 위치, 각도, 화각 등의 데이터를 전송하고, SC 플레이어에서 이를 수신해 카메라를 동기화할 수 있다. 이런 UDP 방식의 소켓 통신은 TCP/IP 방식보다 대용량 데이터를 빠르게 전달하는데 유리하며, 언리얼 엔진의 Simple TCP UDP 소켓 클라이언트 플러그인을 통해 손쉽게 구현할 수 있다. 이를 통해 AR 플레이어의 카메라와 SC 플레이어의 카메라는 완전히 동기화되어 동일하게 움직이게 된다.   ▲ focal length, aperture, focus dist 등 실시간으로 전달받은 데이터를 카메라에 적용(위치, 각도는 제외)   ▲ Interpolation 함수로 위치 및 각도 데이터를 부드럽게 적용   가상 LED월 표현 SC 플레이어의 영상을 현실의 LED월에 직접 출력하는 경우에는 카메라의 촬영 영역과 실제 LED 형태가 반영된 절두체(Frustum) 영역을 적용하기 위해 아나모픽 왜곡을 적용한 후 출력해야 한다. 하지만 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다. 따라서 전달된 영상을 LED 형태대로 마스킹한 후 다른 AR 요소와 함께 외부 카메라 영상과 합성하는 방식으로 작업을 진행했는데, 이 같은 가상 LED월 방식은 실제 카메라의 움직임에 따라 AR 요소와 LED월에 표시되는 영상이 동시에 반응하므로 마치 LED월 너머에 있는 다른 공간을 들여다보는 듯한 연출이 가능하게 된다. 또한 라이트, 포그, 포스트 프로세스 설정 등이 서로 다른 두 공간을 동시에 하나의 공간에 표현할 수 있다.   ▲ 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다.   맺음말 비브스튜디오는 카니발 온 AR 론칭쇼를 준비하면서 언리얼 엔진 기반의 고품질 AR 그래픽을 보다 효과적으로 전달할 수 있는 여러 방법들에 대해 많은 고민을 했다. 특히, 원격 제어용 프로그램인 라이브콤프와 연계, 컴포셔 기반의 렌즈 왜곡 보정 및 합성, 현장에서의 즉각적인 색상 보정 등과 같이 운영 효율성을 개선하기 위한 기능에 집중했으며, 또한 가상 LED월 방식의 연출을 통해 보다 입체적인 공간 연출을 가능하게 했다. 짧은 준비 기간에도 불구하고 이러한 결과가 가능했던 이유는 언리얼 엔진이 제공하는 다양한 기능이나 플러그인을 적극적으로 활용하는 동시에 그 기반 위에 원하는 기능들을 덧붙여 빠르게 구현하고 테스트하는 과정을 반복할 수 있었기 때문이다.  이로써 비브스튜디오는 이번 론칭쇼를 통해 최고 수준의 기술 및 경험이 풍부한 컴퓨터 그래픽 디자이너와 AR/VR R&D 엔지니어와 함께 전 세계 고객을 대상으로 AR/VR 솔루션 서비스를 제공할 수 있었고, 이는 자사의 기술력을 한 단계 끌어올리는 계기가 되었다. 또한, 언리얼 엔진이 다양한 분야에서 활용되는 만큼 모든 산업 분야의 스트리밍 이벤트나 전시회를 대상으로 서비스를 제공하고 발전시킬 수 있는 엄청난 경험을 얻었으며, 이를 바탕으로 다양한 산업 분야에서 혁신을 이어 나갈 예정이다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-11-30
언리얼 엔진 4.24 출시, 비주얼 퀄리티 및 생산성 높여주는 다양한 기능 추가
에픽게임즈 코리아가 게임뿐 아니라 일반산업 분야를 위한 신규 기능이 대거 추가된 언리얼 엔진 4.24 버전이 업데이트됐다고 발표했다. 이번 언리얼 엔진 4.24는 ▲변경유지 랜드스케이프 편집  ▲물리 기반 스카이 애트머스피어 컴포넌트 ▲스크린 스페이스 글로벌 일루미네이션 ▲헤어와 퍼 렌더링 및 시뮬레이션 ▲실시간 레이 트레이싱 향상 등 비주얼 퀄리티와 생산성을 높여주는 신규 기능들이 다수 추가됐다.     변경 유지 랜드스케이프 편집 기능을 이용하면 언리얼 에디터에서 드넓은 지형을 더 편리하게 만들고 수정할 수 있다. 랜드스케이프에 여러 개의 하이트 맵을 추가하고 레이어 단위로 페인트할 수 있는 기능도 새롭게 제공된다. 또한, 랜드스케이프의 지면을 건물의 바닥에 자동으로 맞춰주는 브러시와 같이 블루프린트를 통해 특별한 커스텀 브러시를 만들어 볼 수 있다. 물리 기반 스카이 애트머스피어 컴포넌트는 AAA급 게임이나 건축 시각화 분야에 유용한 기능으로, 몇 번의 클릭으로 석양이나 스페이스 뷰 등 사실적인 리얼타임 야외 환경을 제작할 수 있다. 태양 위치 계산기(Sun Positioner)가 이 기능을 지원함에 따라 지상이나 공중 시점에서 바라본 대기를 렌더링할 수 있고, 하루의 시간을 다이내믹하게 바꿀 수 있다. 스크린 스페이스 글로벌 일루미네이션은 한 오브젝트에 반사되는 빛이 다른 오브젝트 색상에 영향을 주는 자연스러운 간접 라이팅 효과를 구현할 수 있다. 헤어와 퍼 렌더링 및 시뮬레이션 기능은 DCC 애플리케이션에서 제작한 그룸(Groom)을 활용하여 수천 개의 포토리얼한 머리카락을 실시간으로 시뮬레이션하고 렌더링할 수 있게 한다. 이를 통해, 보다 사실적인 휴먼 캐릭터와 털로 덮인 크리처를 제작할 수 있으며, 물리적으로 정확한 움직임과 함께 머리카락을 한 가닥씩 렌더링할 수 있다. 한편, 지난 4월, 4.22 업데이트부터 정식 지원되었던 ‘실시간 레이 트레이싱’은 이번 버전에도 최적화와 안정성을 더욱 향상하고 다양한 기능들이 추가됐다. 대규모 월드를 지원하는 최고 수준의 인스턴싱 지원, 픽셀 디노이징에 리플렉션 멀티 샘플 추가, VR과 분할 스크린을 위한 멀티뷰 지원 등이 포함된다. 이와 함께 ▲언리얼 스튜디오의 언리얼 엔진 통합 ▲비주얼 데이터프렙 ▲프로젝트 생성 워크플로 향상 ▲라이브 유니버설 신 디스크립션 스테이지 ▲nDisplay 셋업 향상 등 건축과 제조, 자동차, 영화, 방송 등 광범위한 일반산업 분야를 위한 여러 가지 신규 기능들뿐 아니라 다양한 툴과 샘플들이 업데이트되었다. 이번 4.24 버전부터 언리얼 스튜디오가 언리얼 엔진에 통합되어 언리얼 스튜디오의 모든 기능을 언리얼 엔진에서 무료로 제공한다. 특히, 언리얼 스튜디오의 주요 툴세트였던 데이터스미스를 통해 3ds Max, 스케치업 프로(SketchUp Pro), Cinema 4D 그리고 다양한 CAD 및 BIM 포맷에서 가져온 전체 신(Scene)을 원활하게 변환할 수 있고, 기본적인 스태틱 메시 편집, UV 프로젝션 등의 다양한 툴도 이용할 수 있다. 비주얼 데이터프렙은 프로그래머가 아니더라도 데이터 준비 워크플로를 쉽게 자동화할 수 있게 하는 기능으로, 간소화된 신규 비주얼 툴을 통해 필터 및 오퍼레이터 레시피를 저장한 후 다른 신이나 프로젝트에 재사용할 수 있다. 클래스와 이름, 메타데이터 태그나 크기와 같은 요소에 따라 LOD 제작, 라이트맵 UV 구성, 머티리얼 대체, 오브젝트 삭제 또는 병합 등 다양한 설정이 가능하다. 이와 함께 프로젝트 생성 워크플로 향상을 통해 새 프로젝트 용도에 맞는 산업별 템플릿을 선택하고, 플러그인과 환경설정을 자동으로 로딩해 주는 위저드 가이드를 통해 보다 빠르게 새 프로젝트를 만들고 시작할 수 있다. 제품 디자인용 HDRI 배경의 스튜디오 라이팅이나 건축 시각화를 위한 태양 및 하늘 환경 등이 예제로 제공된다. 라이브 유니버설 신 디스크립션 스테이지는 유니버설 신 디스크립션(USD) 스테이지를 라이브로 작업해 언리얼 엔진 내에서 더 직관적이고 효율적으로 USD 데이터를 활용할 수 있게 하는 기능이다. 예를 들어, 언리얼 에디터에 임포트된 USD 신이 있는 상태에서 DCC 패키지 애셋을 수정하면 동시에 에디터에서 업데이트된다. 그리고 nDisplay 셋업 향상을 통해 다수의 디바이스 또는 프로젝터에 표시되는 몰입적인 콘텐츠를 더 쉽게 제작할 수 있다. nDisplay가 표준 언리얼 엔진 워크플로와 일치하도록 다시 디자인하고 리팩터링했으며, 기존 프로젝트와의 기본 호환성을 지원하고, 네트워크에 연결된 PC에 완벽하게 복제한 입력과 동기화된 비주얼을 제공한다. 이외에도 언리얼 엔진 마켓플레이스를 통해 아폴로 11호 미션 AR 홀로렌즈 2 샘플이 제공되고, 퀵셀 메가스캔을 사용할 수 있게 되는 등 언리얼 엔진 개발자 커뮤니티를 위한 다양한 샘플과 애셋들이 업데이트됐다. 에픽게임즈 코리아 박성철 대표는 “이번 언리얼 엔진 4.24는 누구나 영화와 같은 퀄리티의 리얼타임 경험을 제작할 수 있도록 비주얼 퀄리티와 생산성을 더욱 높일 수 있는 기능들과 워크플로를 추가했다.”라면서, “게임뿐 아니라 다양한 일반산업을 위해 언리얼 스튜디오를 언리얼 엔진에 통합하여 무료로 제공하고, 많은 신규 기능 역시 지속적으로 추가하고 있으니 일반산업 분야 종사자분들께서도 언리얼 엔진을 활용해 혁신적인 프로젝트를 진행해보시기를 바란다."라고  말했다.
작성일 : 2019-12-11
[컬처] 콘진원, ‘스타트업콘×넥스트콘텐츠콘퍼런스’ 개최
문화체육관광부와 한국콘텐츠진흥원(이하 콘진원)이 10월 17일~18일까지 서울 코엑스에서 ‘스타트업콘×넥스트콘텐츠콘퍼런스 2019(STARTUP:CON×NCC 2019)’를 개최했다. ‘혁신을 확장하라(Scale Up your Innovation)’라는 슬로건을 내건 이번 콘퍼런스에서는 쇼케이스, 워크숍, 네트워킹, 공연이 이틀 동안 이어졌다. ■ 박경수 기자      이번 콘퍼런스의 또 다른 특징은 스타트업의 새로운 성공모델 발굴과 인사이트 공유를 위해 마련된 ‘스타트업콘’과 문화기술(CT) 및 콘텐츠 산업의 글로벌 트렌드를 전망해 보는 ‘넥스트콘텐츠콘퍼런스’가 함께 진행됐다는 점이다. 국내외 혁신가와 창업자들이 한 자리에 모여 문화기술과 관련된 다양한 콘텐츠와 정보들이 교류됐다.   4차 산업혁명 시대의 문화기술은? 17일 첫째날 콘퍼런스에서는 이은결 마술사가 'MR 마술쇼'를 선보이며 오프닝 무대를 열었다. 이은결 마술사는 마임과 마술 형태의 아날로그 기술에 스마트폰과 태블릿 PC를 이용한 증강현실, 미디어 퍼포먼스라는 디지털 기술을 혼합해 ‘MR(Mixed Reality) Illusion’이라는 이색적인 경험을 선사했다.   ▲ MR 마술쇼를 선보인 이은결 마술사   KAIST 문화기술대학원장을 지낸 국가과학기술연구회(NST)의 원광연 이사장은 ‘제4차 산업혁명시대의 문화기술’을 주제로 기조강연에서 나섰다. 원광연 이사장은 “4차 산업혁명을 이야기하는 지금은 콘텐츠+미디어+플랫폼이 하나로 연결되는 시대가 됐다”며 “문화와 기술이 융합하는 CT(문화기술)가 보편화됨에 따라 새로운 시대를 이끄는데 있어서 CT가 중요한 역할을 하고 있다”고 전망했다.   ▲ ‘제4차 산업혁명시대의 문화기술’을 주제로 기조강연을 한 국가과학기술연구회(NST)의 원광연 이사장   '문화기술의 도전과 극복'을 주제로 열린 패널토론에서는 웹툰작가인 무적핑크(변지민)가 모더레이터를 맡았다. 패널로는 애니메이션 제작사인 로커스의 홍성호 대표, 영화 제작사인 리얼라이즈픽쳐스의 원동연 대표, ‘배틀그라운드’로 유명한 게임 업체인 펍지의 정구승 PD가 참석해 콘텐츠 장르별로 문화기술의 도전과 극복에 대해 이야기했다. 이들은 토론을 통해 스타트업 관계자들에게 필요한 실질적인 콘텐츠 제작에 대해 조언했다.  18일 둘째날 콘퍼런스에서는 ▲버닝맨 프로젝트의 스튜어트 맨그럼(Stuart Mangrum) 디렉터가 기조연사로 참여해 ‘버닝맨 프로젝트의 역사와 비전’을 주제로 강연했다. 맨그럼 디렉터는 자유로운 실험과 도전을 통한 혁신사례를 소개하고 글로벌 기업으로 성장하고자 하는 스타트업이 필요로 하는 인사이트를 제공했다.    ▲ 버닝맨 프로젝트의 스튜어트 맨그럼(Stuart Mangrum) 디렉터      ‘실감기술, 콘텐츠의 미래를 예측하다’를 주제로 열린 패널토론에서는 서울창업허브의 강명구 부센터장이 모더레이터를 맡았다. 패널에는 플랫팜의 이효섭 CEO, 삼성전자 무선사업부의 정혜순 상무 등이 참석했다. 이들은 ‘삼성전자와 스타트업의 성공적인 파트너십 사례 - 스타트업 플랫팜과 C-Lab Outside’를 주제로 이야기를 나눴다.  삼성전자는 사내벤처 프로그램인 C랩을 외부로 확대하면서 기존 모바일 스타트업 육성 프로그램을 삼성전자의 전 비즈니스 분야로 확대했다. 이 과정에서 C-Lab Outside로 브랜드를 변경하고 최근 스타트업 지원에 힘쓰고 있다.    실감기술, 콘텐츠의 미래를 예측할까? 행사가 진행된 이틀 동안 국내외 명사들의 강연도 이어졌다. 세계 4대 컨설팅 및 회계 전문기업 KPMG China Partner의 앤손 베일리(Anson Bailey)는 ‘글로벌 투자 유치 전략’을 주제로 이야기했다. 구글과 유튜브의 프로덕트 매니저인 자켈 아만코나 홀튼(Jacquelle Amankonah Horton)은 ‘음악 산업에서의 유튜브의 진화 과정과 그 성장 비결은 무엇인가?’를 주제로 강연했다. VR계의 넷플릭스를 꿈꾸는 AMAZE VR의 이승준 대표는 ‘어메이즈 VR이 바라보는 VR 시장의 기회’에 대해 이야기했다.  최근 Z세대의 대세 SNS로 급부상하고 있는 틱톡(TikTok)을 활용한 마케팅 방법을 공유하는 워크숍도 열렸다. 이번 워크숍에서는 현장에 참석한 스타트업 실무진들과 일반인을 대상으로 틱톡의 성과를 내기까지의 과정과 실질적인 홍보마케팅 전략을 공유해 관심을 모았다. 부대행사로는 에딘버러 프린지 페스티벌에서 인정받은 브러쉬씨어터 에듀-아트 공연 ‘두들팝 Doodle-POP’이 개최됐다. ‘두들팝 Doodle-POP’은 손그림과 스크린 아트, 프로젝션 매핑이 결합된 색다른 체험공연으로 눈길을 끌었다. 18일에 진행된 토크콘서트 ‘창창한 콘페스타’에서는 올 한해 콘텐츠 산업의 트렌드와 이슈를 소개했다. 창창한 콘페스타는 ‘미디어 콘텐츠, 트렌드와 변화에 반응하라’라는 주제로 샌드박스네트워크의 이필성 대표, 영화 ‘범죄도시’의 강윤성 감독, 영화배우 김인권 씨가 토크콘서트에 참여해 창작자들의 성공 노하우와 2020년 콘텐츠 트렌드에 대해 전망했다. 다양한 콘퍼런스와 볼거리 외에도 행사장 한 켠에 마련된 전시존에서는 ‘2019 아이디어 융합팩토리 창작콘텐츠’와 ‘문화기술연구개발 지원사업’의 프로젝트들을 한자리에서 볼 수 있었다. 아이디어 융합팩토리 창작콘텐츠 전시에서는 아이디어의 창작물과 ‘융합’이라는 주제에 맞춰 ▲3D 프린터로 만든 피규어 ▲상품을 골라주는 쇼핑몰 플랫폼 ▲한글 관련 콘텐츠 ▲생일 노래를 불러주는 AR 입체카드 등 다양한 제품들이 소개됐다. 특히 기술과 미디어, 디자인이 결합된 이 제품들에 대해 실제 상품으로 출시됐을 경우 어느 정도 가치가 있는지 현장에서 설문조사가 진행됐다.    ▲ ‘2019 아이디어 융합팩토리 창작콘텐츠’ 전시장      ▲ ‘문화기술 성과전시’ 쇼케이션 현장      ‘문화기술 성과전시’에서는 정신건강 증진용 VR, CPR체험 VR, 조선시대 체험 VR 등 VR 콘텐츠 10여종이 전시되었고 직접 체험해 볼 수도 있었다. 특히 미래 먹거리로 떠오른 실감콘텐츠는 다양한 센서를 이용해 제스처, 모션, 음성 등 사람의 오감을 디지털 기술로 인식해 처리함으로써 여러 분야에 적용할 수 있다는 점에서 주목되고 있다. 정부에서는 지난 10월 7일 ‘제11회 정보통신전략위원회’를 열고, 5G 이동통신 시대를 선도할 실감콘텐츠산업 활성화를 위한 4개의 주요 정책(▲2019∼2023년 실감콘텐츠산업 활성화 전략 ▲5G+ 핵심서비스 융합보안 강화방안 ▲ICT(정보통신기술) 기금제도 합리화 방안 ▲2020년 정보통신 진흥·융합 활성화 실행계획)을 발표했다. 2020년에는 262억원을 들여 국방훈련, 실감교육, 가상수술, 재난안전 등 공공부문과 산업, 과학기술에 대규모 실감콘텐츠 프로젝트를 추진할 예정이어서 앞으로 실감미디어 관련 산업이 확대될 전망이다.     기사 상세 내용은 PDF로 제공됩니다.
작성일 : 2019-11-01
'스타트업콘 × 넥스트콘텐츠콘퍼런스' 10.17(목) 코엑스에서 개막
문화체육관광부와 한국콘텐츠진흥원(이하 콘진원)은 10월 17일~18일까지 서울 코엑스에서 ‘스타트업콘 × 넥스트콘텐츠콘퍼런스 2019(STARTUP:CON × NCC 2019)’를 개최한다. 이번 행사는 ‘SCALE UP YOUR INNOVATION’이라는 슬로건을 내걸고 ▲콘퍼런스 ▲쇼케이스 ▲워크숍 ▲네트워킹 ▲공연 등 다채롭게 프로그램들이 진행된다. <사진> 스타트업콘 × 넥스트콘텐츠콘퍼런스   10월 17일 콘퍼런스에는 ▲이은결 마술사의 AR 마술쇼를 시작으로 ▲국가과학기술연구회 원광연 이사장이 ‘문화기술의 재도약’ 방안에 대하여 이야기할 예정이다. 또한 ▲애니메이션 <레드슈즈>의 홍성호 감독 ▲영화 <신과함께-죄와 벌>의 리얼라이즈픽쳐스 원동연 대표 ▲게임 <배틀그라운드> 개발사 펍지의 정구승 PD도 참여해 콘텐츠 장르별 문화기술의 도전과 극복에 대하여 현실적인 조언을 나눈다.  원광연 이사장은 “4차산업혁명을 이야기하는 지금은 콘텐츠 + 미디어 + 플랫폼이 연결되는 시대가 됐다”며 “문화와 기술이 융합하는 CT(문화기술)이 보편화된 시대로 바뀌어갈 것이다”라고 전망했다. <사진> 국가과학기술연구회 원광연 이사장   한편 18일 콘퍼런스에서는 ▲버닝맨 프로젝트의 스튜어트 맨그럼(Stuart Mangrum) 디렉터가 ‘버닝맨 프로젝트의 역사와 비전’을 주제로 기조연사로 나선다. 맨그럼 디렉터는 이번 세션에서 자유로운 실험과 도전을 통한 혁신사례를 통해 글로벌 기업으로 성장하는 스타트업에 인사이트를 제공할 계획이다. 이밖에도 국내외 명사들의 강연도 진행된다. ▲세계 4대 컨설팅 및 회계 전문기업 KPMG China Partner의 앤손 베일리(Anson Bailey)는 ‘글로벌 투자 유치 전략’을 주제로, ▲구글과 유튜브의 프로덕트 매니저인 자켈 아만코나 홀튼(Jacquelle Amankonah Horton)은 ‘음악 산업에서의 유튜브의 진화 과정과 그 성장 비결은 무엇인가?’를 주제로 강연한다. 또한 ▲VR계의 넷플릭스를 꿈꾸는 AMAZE VR 이승준 대표가 ‘어메이즈 VR이 바라보는 VR 시장의 기회’에 대해 이야기한다. <사진> 스타트업콘 × 넥스트콘텐츠콘퍼런스 2019 현장 <사진> 스타트업콘 × 넥스트콘텐츠콘퍼런스 2019 현장   이번 행사에는 올해 주목되는 콘텐츠 스타트업의 쇼케이스 겸 피칭 콘테스트 무대도 마련된다. 17일에는 ▲애니랙티브 ▲플랫팜 ▲웰트 등 25개 팀이 비즈니스 모델 공유를 위한 피칭을 진행한다. 둘째 날인 18일에는 결선 진출 10개사가 피칭에 참여해 선정된 상위 4개 팀에게 총 3천만 원 상당의 포상이 주어진다.  이번 피칭에는 ▲500 Startups 벤처파트너 ▲그랩(Grab) ▲411 Music Group 등 국내외 유력 벤처투자사 및 스타트업 미디어 관계자 등이 심사위원으로 참여하여 글로벌 혁신 성장이 기대되는 최고의 스타트업을 가려낼 예정이다. 또한 18일에는 최근 Z세대의 대세 SNS로 급부상하고 있는 틱톡(TikTok)을 활용한 마케팅 방법을 공유하는 워크숍을 가진다. 워크숍은 현장에 참석한 스타트업 실무진들과 일반인을 대상으로 실질적인 홍보마케팅 전략을 공유하는 자리가 될 예정이다. 이외에도 부대행사로 에딘버러 프린지 페스티벌에서 인정받은 브러쉬씨어터 에듀-아트 공연 <두들팝 Doodle-POP>이 개최된다. <두들팝 Doodle-POP>은 손 그림과 스크린 아트, 프로젝션 맵핑이 결합된 색다른 체험공연이다. 올해는 특별한 행사들도 함께 진행돼 눈길을 끈다. 18일에 진행하는 토크콘서트 ‘창창한 콘페스타’는 올 한해 콘텐츠 산업의 트렌드와 이슈를 소개하며, 전국 각지에서 7회에 걸쳐 개최된 ‘찾아가는 창창한 콘서트’의 대미를 장식한다. 창창한 콘페스타는 ‘미디어 콘텐츠, 트렌드와 변화에 반응하라’라는 주제로 ▲샌드박스네트워크의 이필성 대표 ▲영화 <범죄도시> 강윤성 감독 ▲영화배우 김인권이 토크콘서트에 참여해 창작자들의 성공 노하우와 2020년 콘텐츠 트렌드의 전망을 소개할 예정이다. 아울러 전시존에서는 ‘2019 아이디어 융합팩토리 창작콘텐츠’와 ‘문화기술연구개발 지원사업’의 프로젝트를 한자리에서 확인할 수 있다. 아이디어 융합팩토리 창작콘텐츠 전시에서는 아이디어의 창작물과 ‘융합’이라는 주제에 걸맞게 기술, 미디어, 디자인이 결합된 제품 등 다양한 콘텐츠가 전시된다. 또한 문화기술 성과전시에서는 VR 콘텐츠 10여종이 전시되어 실감콘텐츠 기술의 현주소를 실제 경험할 수 있는 기회를 제공한다. <사진> 2019 아이디어 융합팩토리 창작콘텐츠 전시장
작성일 : 2019-10-17
스타트업콘×넥스트콘텐츠콘퍼런스 2019 개최
문화체육관광부와 한국콘텐츠진흥원(이하 콘진원)은 10월 17일~18일까지 서울 코엑스에서 ‘스타트업콘 × 넥스트콘텐츠콘퍼런스 2019(STARTUP:CON × NCC 2019)’를 개최한다. ​이번 행사는 국내외 혁신가·창업자들이 모여 스타트업의 새로운 성공모델을 발굴하고 인사이트를 공유하는 ‘스타트업콘’과 문화기술 및 콘텐츠산업의 글로벌 트렌드, 미래 전망을 제시하는 ‘넥스트콘텐츠콘퍼런스’의 만남으로 융합 혁신을 통해 미래를 이끌어갈 아이디어들을 기대하고 있다. 이번 행사는 ‘SCALE UP YOUR INNOVATION’이라는 슬로건을 내걸고 ▲콘퍼런스 ▲쇼케이스 ▲워크숍 ▲네트워킹 ▲공연 등 다채롭게 프로그램들이 진행될 예정이다. ​10월 17일 콘퍼런스에는 ▲이은결 마술사의 AR 마술쇼를 시작으로 ▲국가과학기술연구회 원광연 이사장이 ‘문화기술의 재도약’ 방안에 대하여 이야기할 예정이다. 또한 ▲애니메이션 <레드슈즈>의 홍성호 감독 ▲영화 <신과함께-죄와 벌>의 리얼라이즈픽쳐스 원동연 대표 ▲게임 <배틀그라운드> 개발사 펍지의 정구승 PD도 참여해 콘텐츠 장르별 문화기술의 도전과 극복에 대하여 현실적인 조언을 나눈다. 18일 콘퍼런스에는 ▲버닝맨 프로젝트의 스튜어트 맨그럼(Stuart Mangrum) 디렉터가 ‘버닝맨 프로젝트의 역사와 비전’을 주제로 기조연사로 나선다. 맨그럼 디렉터는 이번 세션에서 자유로운 실험과 도전을 통한 혁신사례를 통해 글로벌 기업으로 성장하는 스타트업에 인사이트를 제공할 계획이다. 이밖에도 국내외 명사들의 강연도 진행된다. ▲세계 4대 컨설팅 및 회계 전문기업 KPMG China Partner의 앤손 베일리(Anson Bailey)는 ‘글로벌 투자 유치 전략’을 주제로, ▲구글과 유튜브의 프로덕트 매니저인 자켈 아만코나 홀튼(Jacquelle Amankonah Horton)은 ‘음악 산업에서의 유튜브의 진화 과정과 그 성장 비결은 무엇인가?’를 주제로 강연한다. 또한 ▲VR계의 넷플릭스를 꿈꾸는 AMAZE VR 이승준 대표가 ‘어메이즈 VR이 바라보는 VR 시장의 기회’에 대해 이야기한다. 한편 이번 행사에는 올해 주목되는 콘텐츠 스타트업의 쇼케이스 겸 피칭 콘테스트 무대도 마련된다. 17일에는 ▲애니랙티브 ▲플랫팜 ▲웰트 등 25개 팀이 비즈니스 모델 공유를 위한 피칭을 진행한다. 둘째 날인 18일에는 결선 진출 10개사가 피칭에 참여해 선정된 상위 4개 팀에게 총 3천만 원 상당의 포상이 주어진다. 이번 피칭에는 ▲500 Startups 벤처파트너 ▲그랩(Grab) ▲411 Music Group 등 국내외 유력 벤처투자사 및 스타트업 미디어 관계자 등이 심사위원으로 참여하여 글로벌 혁신 성장이 기대되는 최고의 스타트업을 가려낼 예정이다. 또한 18일에는 최근 Z세대의 대세 SNS로 급부상하고 있는 틱톡(TikTok)을 활용한 마케팅 방법을 공유하는 워크숍을 가진다. 워크숍은 현장에 참석한 스타트업 실무진들과 일반인을 대상으로 실질적인 홍보마케팅 전략을 공유하는 자리가 될 예정이다. 이외에도 부대행사로 에딘버러 프린지 페스티벌에서 인정받은 브러쉬씨어터 에듀-아트 공연 <두들팝 Doodle-POP>이 개최된다. <두들팝 Doodle-POP>은 손 그림과 스크린 아트, 프로젝션 맵핑이 결합된 색다른 체험공연이다. 올해는 특별한 행사들도 함께 진행돼 눈길을 끈다. 18일에 진행하는 토크콘서트 ‘창창한 콘페스타’는 올 한해 콘텐츠 산업의 트렌드와 이슈를 소개하며, 전국 각지에서 7회에 걸쳐 개최된 ‘찾아가는 창창한 콘서트’의 대미를 장식한다. 창창한 콘페스타는 ‘미디어 콘텐츠, 트렌드와 변화에 반응하라’라는 주제로 ▲샌드박스네트워크의 이필성 대표 ▲영화 <범죄도시> 강윤성 감독 ▲영화배우 김인권이 토크콘서트에 참여해 창작자들의 성공 노하우와 2020년 콘텐츠 트렌드의 전망을 소개할 예정이다. 아울러 전시존에서는 ‘2019 아이디어 융합팩토리 창작콘텐츠’와 ‘문화기술연구개발 지원사업’의 프로젝트를 한자리에서 확인할 수 있다. 아이디어 융합팩토리 창작콘텐츠 전시에서는 아이디어의 창작물과 ‘융합’이라는 주제에 걸맞게 기술, 미디어, 디자인이 결합된 제품 등 다양한 콘텐츠가 전시된다. 또한 문화기술 성과전시에서는 VR 콘텐츠 10여종이 전시되어 실감콘텐츠 기술의 현주소를 실제 경험할 수 있는 기회를 제공한다. 콘진원 김영준 원장은 “콘텐츠산업 3대 혁신전략에서 가장 중요한 요소 중 하나가 기업이 성장할 수 있는 금융 기반과 미래 먹거리로 일컬어지는 실감콘텐츠”라며 “이번 행사를 통해 콘텐츠 기업의 성장과 혁신을 위한 아이디어는 물론 글로벌 마케팅 전략, 투자유치 방안과 같은 실질적인 정보, 그리고 기술과 콘텐츠의 융합으로 만들어갈 수 있는 미래 콘텐츠 인사이트를 얻을 수 있기를 기대한다”고 전했다.
작성일 : 2019-10-14
언리얼 스튜디오 4.23: 미디어&엔터테인먼트 콘텐츠 제작의 워크플로 향상
개발 및 공급 : 에픽게임즈 주요 특징 : 차세대 고성능 피직스 시스템 탑재, 파티클 이펙트 시스템 개선, VFX와 VR 등을 위한 미디어 프로덕션 툴세트 강화, 미디어 디스플레이/출력 기능 향상, 시네마 4D/IFC 파일 네이티브 지원, 3ds맥스/레빗/라이노 등과 연계한 데이터스미스의 워크플로 향상, 복잡한 신 작업에 대한 언리얼 에디터의 퍼포먼스 향상 등     언리얼 스튜디오 4.23(Unreal Studio 4.23)은 피직스 및 디스트럭션 시스템을 포함하며 버추얼 프로덕션부터 증강현실 방송까지 미디어 및 엔터테인먼트 콘텐츠를 제작하는 방식을 혁신하는 새로운 툴과 워크플로를 제공한다. 또한, 라이브 이벤트 엔터테인먼트부터 몰입형 디자인 시각화까지 모든 분야를 위한 언리얼 엔진의 디스플레이 및 출력 기능이 확장되었으며, 파이프라인 내에서 끊김 없이 데이터를 옮길 수 있도록 데이터 스미스의 시네마 4D(Cinema 4D) 및 IFC 네이티브 지원 등이 포함됐다. 한편, 언리얼 에디터에는 복잡한 장면을 위한 중요 퍼포먼스 향상 등 애셋을 더 빠르고 쉽게 작업할 수 있는 여러 가지 개선사항이 추가되었다. 언리얼 스튜디오 4.23의 새로운 기능은 다음과 같다.   고급 피직스 및 이펙트 카오스 피직스 및 디스트럭션 시스템이 추가됐다.     카오스 피직스 및 디스트럭션 시스템(베타) 카오스 디스트럭션은 언리얼 엔진의 차세대 고성능 피직스 시스템의 첫 번째 기능으로, VFX 아티스트들은 카오스를 활용하여 전례 없는 수준의 예술적인 제어와 함께 시네마틱급 퀄리티로 대규모의 신을 조각 내고, 부수고, 파괴할 수 있다. 시뮬레이션은 실시간으로 구현되며, 대규모 시뮬레이션은 미리 캐시에 저장하여 실시간으로 재생하고, 인터랙티브 경험의 일부분인 높은 충실도의 디스트럭션 이벤트를 제작할 수 있다. 카오스 피직스 시스템은 나이아가라 파티클 이펙트 시스템에 데이터를 전송하여, 먼지와 연기와 같은 부가 이펙트를 만들 수 있다.   나이아가라 VFX의 향상(베타) 언리얼 엔진의 파티클 이펙트 시스템인 나이아가라는 각종 개선사항으로 연기, 먼지, 물, 불과 같은 고퀄리티 이펙트를 제작하기 위해 보다 많은 기능을 갖추고, 생산적이며 고성능의 파티클 시스템으로 향상됐다. 이 시스템은 다음 기능을 포함한다. 이미터 상속 스태틱 스위치 레이 트레이싱 지원을 위한 지오메트리 생성 스프라이트 조각 GPU 소팅   강화된 미디어 프로덕션 툴세트 미디어 프로덕션 툴세트가 강화되었다.     인 카메라 VFX(베타) 언리얼 엔진 신(scene)을 출력하는 LED 벽 또는 UE4에서 실시간 합성이 가능한 디지털 그린스크린을 사용하여 언리얼 엔진 환경의 배경과 실제 배우 및 소품을 합친 세트장에서 최종 장면을 실시간으로 구현할 수 있다. 이 기능으로 실제 배우와 소품이 CG 환경의 라이트와 리플렉션을 받을 수 있으며, 때에 따라 포스트 프로덕션 워크플로를 생략하여 전체 프로덕션을 대폭 가속화하기도 한다.   영화 제작자용 VR 스카우팅(베타) 디지털 환경을 살펴볼 수 있는 새로운 툴과 VR로 신을 탐색하고 검토할 수 있다. 신 블로킹 구성이 가능해지고, 신을 캡처하여 합성할 수 있으며, 무엇보다 촬영 장소와 똑같은 가상 공간으로 직접 들어가 더 나은 창의적인 결정이 가능해진다. VR 스카우팅은 협업 세션에서 멀티유저 편집 기능과 함께 활용할 수 있다.   ▲ 영화 제작자용 VR 스카우팅 등 버추얼 프로덕션 혁신 기능들이 강화되었다.   향상된 라이브 링크 리얼타임 데이터를 언리얼 엔진과 연결해주는 라이브 링크는 카메라, 라이트, 캐릭터 애니메이션과 함께 다른 소스를 보다 용이하게 지원하기 위해 확장됐다. 라이브 링크는 특히 혼합현실 방송과 라이브 이벤트 엔터테인먼트 프로덕션에 유용하다. 또한, UX의 다수의 개선으로 들어오는 데이터와 UE4 내 액터 사이의 연동을 쉽게 설정하고, 스트림의 상태를 모니터링할 수 있다.   UE4 원격 제어 기능(베타) 프론트 엔드 웹 디자이너들이 RPC(Remote Procedure Calls) 명령어로 언리얼 엔진 제어용 툴들을 제작할 수 있는 REST API가 도입됐다. 이 기능을 통해 영화 및 TV 프로덕션 팀들을 포함한 엔터프라이즈 고객들은 정교한 커스텀 인터페이스를 구축하여 언리얼 엔진을 제어할 수 있다.   향상된 디스플레이/출력 기능 nDisplay에 다수의 개선사항이 추가됐다.     nDisplay의 향상 리얼타임 콘텐츠를 다수의 동시 디스플레이에 렌더링하는 언리얼 엔진의 시스템인 nDisplay에 여러 개선사항이 추가됐다. 지원되는 모든 모드 및 스케일러블 디스플레이(Scalable Display)의 SDK, 이지 블렌드(Easy Blend)와의 통합 MPCDI 산업 표준을 사용한 UE4의 네이티브 워프 및 블렌드 다른 맞춤형 기기를 위한 확장된 렌더 API 따라서 이제 nDisplay는 평면, 곡면, 구형 표면의 정교한 프로젝션 시스템 그리고 프로젝션 프러스텀 및 커스텀 기기 사이의 오버랩에 대해 더 나은 지원을 제공한다. 이러한 대형 디스플레이 기기는 라이브 엔터테인먼트 이벤트, 영구 장치, 디지털 사이니지, 몰입형 디자인 시각화에 활용될 수 있다.   ▲ 언리얼 엔진의 nDisplay에 여러 개선사항이 추가됐다.   HAP 미디어 재생(베타) HAP 코덱으로 인코딩된 영상 재생에 대한 지원이 추가됐다. 이를 통해 알파 채널로 고해상도 및 고퀄리티 GPU 디코딩 비디오를 모두 재생할 수 있는 기능이 제공된다. 이 기능은 버추얼 프로덕션, 라이브 이벤트, 디지털 사이니지 및 방송에 특히 유용하다.   파노라믹 캡처 툴 향상 간단한 몰입형 경험을 위해 고퀄리티의 360도 파노라마 이미지를 제작하려는 사용자들을 위해, 다음과 같은 파노라믹 캡처 툴을 향상시켰다. 모노 또는 스테레오, 하이 다이내믹 레인지(HDR) 또는 로우 다이내믹 레인지(LDR) 출력물 옵션 선택 다운스트림 컴포지팅에 사용하는 AO, 메탈릭, 러프니스, 뎁스, 베이스 컬러, 월드 노말, 파이널 컬러 패스를 익스포트할 수 있는 기능 스테레오 출력물을 위한 산업 표준 서식 설정   홀로렌즈 2(HoloLens 2) 지원 베타로 출시되었던 홀로렌즈 2의 지원을 이제 실제 제작에 활용할 수 있다. 스트리밍과 네이티브 디플로이, 손가락 추적, 동작 인식, 메싱, 음성 입력, 스페이셜 앵커 핀 설정 등의 기능이 지원된다. 홀로렌즈 2는 엔터테인먼트, 시각화, 제조, 디자인 및 훈련 분야를 아우르는 증강현실 애플리케이션에 활용된다.   ▲ 홀로렌즈 2의 지원을 실제 제작에 활용할 수 있다.   향상된 파이프라인 통합 다양한 지원을 통해 파이프라인 통합이 향상되었다.      시네마 4D 파일 네이티브 지원 이제 언리얼 스튜디오에 포함된 툴세트인 데이터스미스를 통해 시네마 4D(Cinema 4D) 파일을 언리얼 엔진에 바로 임포트할 수 있다. 이로써 신의 계층구조, 인스턴스, 레이어, 피지컬 머티리얼, 라이트, 카메라, PSR 애니메이션 등의 보존이 가능해지며, 변경 유지 리임포트 또한 지원된다. 시네마 4D에서 신 빌딩, 모션 그래픽, 애니메이션 등 어떤 작업을 하든 데이터스미스가 지원하는 다른 파일 유형에 제공하는 동일한 기능을 활용할 수 있고, 그 내용은 다음과 같다. 언리얼 엔진에 처음 임포트한 뒤 시네마 4D에서 변경한 사항을 반복 처리하는 변경유지 리임포트 프로세스 애니메이션을 레벨 시퀀스 애셋으로 변환 복잡한 신 계층구조 및 레이어 보존 물리적 속성을 포함한 카메라 임포트 서피스 머티리얼을 언리얼 엔진의 물리 기반 렌더링 시스템으로 변환   IFC 파일 네이티브 지원 이제 데이터스미스는 언리얼 엔진의 IFC(Industry Foundation Classes) 파일 임포트 및 변경 유지 리임포트, 계층구조의 보존, 인스턴싱, 메타데이터, 머티리얼 그리고 오브젝트 네이밍을 위한 지원을 제공한다. 건설 산업에서 사용되는 광범위한 제품들은 IFC를 지원한다. 데이터스미스는 이제 IFC 2x3 파일에서 언리얼 엔진으로 직접 임포트 워크플로를 제공하여, 지오메트리, 신 계층구조, 메타데이터 프로퍼티 등을 자동 임포트한다.   ▲ OSC 프로토콜을 위한 지원이 추가됐다.   오픈 사운드 컨트롤(OSC) 지원(베타) OSC(Open Sound Control) 프로토콜을 위한 지원이 추가됐다. 라이브 이벤트, 영구 장치, 프로토타이핑 등 멀티미디어 프로덕션에 사용되는 각종 기기, 센서 및 오디오 장비의 양방향 커뮤니케이션의 사용 편의를 위한 산업 표준인 OSC에 대한 지원이 추가됐다.   데이터스미스 개선사항 향상된 CAD 모델의 반복 테셀레이션과 3ds Max, 레빗(Revit), 라이노(Rhino), 델타젠(Deltagen) 그리고 VRED 지원 등 여러 개선사항을 포함하여, 전반적인 데이터스미스 워크플로를 지속적으로 개선해왔다.   3ds Max 용 데이터스미스 개선 이번 버전은 커뮤니티 사용자의 피드백을 직접 받아 데이터스미스가 3ds Max 신을 처리하는 방법을 개선했다. 변경사항은 다음과 같다. VRay 및 코로나(Corona) 라이트 개선 및 수정 균일한 디퓨즈 분포의 포토메트릭 포인트 라이트는 이제 90도 원뿔 각도의 스포트라이트로 임포트되며, 한 방향으로만 올바르게 빛을 낸다. VRay 디스크 라이트는 이제 언리얼 엔진에 디스크 모양 렉트 라이트로 임포트된다. 코로나 에리어 라이트는 이제 언리얼 엔진에서 렉트 라이트로 변환되며, VRay 에리어 라이트와 같은 접근법을 사용한다. 코로나 라이트 강도 단위는 이제 언리얼에서 동등한 값으로 변환된다. 코로나 실린더 라이트가 이제 언리얼에서 올바른 회전으로 변환된다. 데이터스미스가 3ds Max 신에서 보디 오브젝트(Body Object)를 익스포트할 때, 이제 그 오브젝트에 대한 뷰포트 테셀레이션을 사용하여 언리얼 엔진에서 스태틱 메시 애셋을 만든다. 바디 오브젝트에 설정한 메시 퀄리티 프리셋(Mesh Quality Presets) 값을 보존하며, 3ds Max에서 선택한 세팅에 따라 coarse, medium, fine 퀄리티 결과물을 생성한다. 3ds Max 용 데이터스미스 익스포트 플러그인은 이제 신을 *.udatasmith 파일로 자동 익스포트할 때 사용할 수 있는 MAXScript 인터페이스를 지원한다. 이전까지 데이터스미스가 처리하던 3ds Max 머티리얼 ID 최대치는 100이었다. 100을 초과하는 머티리얼 ID는 전혀 언리얼로 변환되지 않았는데, 이제 이 제약이 사라졌다. 이전에 3ds Max 신의 루트 레벨에 있던 헬퍼 오브젝트는 임포트 후 데이터스미스 신에서 생략됐다. 이제 신 계층구조의 다른 레벨에 있는 헬퍼 오브젝트와 같이 기본(empty) 액터로 표현된다. 이전 버전에서 돌출된 메시(extruded mesh)를 잘못된 탄젠트로 임포트하는 경우가 있었다. 그러면 언리얼 엔진에서, 특히 스태틱 메시에 라이트맵 텍스처를 적용할 때, 시각적 부작용이 발생하곤 했는데 이 문제가 해결됐다. 3ds Max 2020 지원이 추가됐다.   레빗용 데이터스미스 개선 데이터스미스 레빗 임포터를 약간 개선하여 언리얼 엔진의 결과가 원본 신에 보다 가까워졌다. 임포터가 임포트할 때 UV를 올바르게 반전시킨다. 결과적으로 이제 다른 소스에서 텍스처를 입힌 머티리얼을 레빗 모델에 할당하고, 레빗에서 임포트한 텍스처 입힌 머티리얼을 다른 언리얼 엔진 애셋에 할당해도 텍스처가 거꾸로 나타나지 않는다. 데이터스미스는 이제 월 스윕(wall sweep)을 스태틱 메시 지오메트리로 임포트한다. 이제 모든 광원이 하나의 Light Sources 레이어에 들어가 언리얼 엔진에서 모아서 볼 수 있어 레빗의 라이트 계층구조를 반영하기가 더 좋아졌다.   라이노용 데이터스미스 개선 데이터스미스 라이노 임포터를 약간 개선하여 언리얼 엔진의 결과가 원본 신에 보다 가까워졌다. 링크된 파일 참조에 대한 지원이 향상됐다. 임포터는 이제 여러 레벨의 링크된 파일을 따르고, 그 링크된 파일이 다른 단위를 사용하도록 구성된 경우 임포트된 신에 올바른 스케일을 적용한다. 이제 라이노 인스턴스를 언리얼에서 동일한 스태틱 메시 애셋을 인스턴싱하는 액터로 변환하는 처리 기능이 향상됐다. 내부적으로 임포터는 새로운 테셀레이션 프로세스를 사용하여 더 짧은 시간 내에 더 나은 결과를 제공한다. 임포트 속도 향상은 물론 더 깔끔한 테셀레이션 덕에 시각적 결과물과 런타임 퍼포먼스가 향상될 수도 있다.   언리얼 에디터의 향상 언리얼 에디터 향상을 통해 복잡한 장면 등을 위한 퍼포먼스가 강화됐다.     복잡한 신을 위한 퍼포먼스의 향상 수많은 애셋이 포함된 복잡한 신 작업을 위해 언리얼 엔진의 퍼포먼스가 대폭 향상됐다. 이는 다양한 소스에서 데이터를 통합하는 사용자들과 일반적으로 한 번에 수천 개의 애셋이 임포트되는 프로젝트를 시각화하는 사용자들이 겪는 답답한 병목 현상을 없애준다.   스태틱 메시를 위한 UV 프로젝션 언리얼 스튜디오 내 스태틱 메시 에디터에 기본적인 UV 프로젝션 기법(박스, 플레인, 실린더)을 노출시켜, 사용자들이 (일반적으로 CAD 애플리케이션에서 가져온) UV가 없는 오브젝트에 텍스처를 적용할 수 있도록 기본적인 UV를 빠르게 생성하게 해준다. 이로써 UV를 제작하기 위해 DCC 애플리케이션 사이에서 오가며 작업할 필요가 없어졌다.   베리언트 매니저를 위한 파이썬 API 언리얼 스튜디오에 배리언트 매니저를 위한 파이썬 API를 추가하여, 사용자들이 언리얼 에디터 내에서 베리언트(예를 들어, 자동차 컨피규레이터용) 생성 프로세스를 자동화할 수 있다. 베리언트 세트와 베리언트 생성을 자동화하면 반복이 쉽고 오류에 강한 프로세스를 쉽게 만들 수 있으며, 다른 서드파티 애플리케이션에서 구성한 신 베리언트를 임포트하는 자동화 프로세스도 만들 수 있다.   HDRI 백드롭 액터 오브젝트의 쇼케이스를 위한 사실적인 환경을 제작할 때 360도 HDR 이미지를 간편하게 활용할 수 있게 해주는 신규 HDRI 백드롭 액터를 추가했다. 이 액터는 선택한 배경 이미지의 그림자를 포착하여 가상 바닥 면에 자동으로 투영하고, 신에 이미지 기반 라이팅을 적용하는데 사용된다.   ▲ HDRI 백드롭 액터가 추가되었다.   IES 라이트 프로파일의 3D 시각화 뷰포트 메시 위젯으로 IES 라이트의 모양을 미리 볼 수 있는 기능을 추가하여, 라이트가 신 내 어디를 비추게 될지 예측하는 게 더 쉬워졌다. 이제 IES 파일의 파싱도 더욱 정확해졌다.   협동형 뷰어 템플릿 신규 언리얼 스튜디오 템플릿은 이전 협동형 뷰어 및 프로덕트 뷰어 템플릿의 기능들을 통합하여 사용자들이 협동형 디자인 리뷰 세션을 간편하게 진행할 수 있게 해준다. 여러 사용자를 하나의 공유 런타임 환경에 연결해 충분한 현재 상태 정보가 모든 수신인에게 보이게 된다. 오브젝트를 이동하고 투명하게 만들면서 신과 상호작용한다. 복합한 어셈블리 부품을 분해하여 보여주는 ‘분해(explode)’ 애니메이션을 구성하고 재생한다. 신의 주요 시점에 북마크 설정을 할 수 있다. 또한, 협동형 뷰어에 몇 가지 신기능이 추가되어, 툴바에서 비행, 걷기, 궤도 카메라, VR 등 여러 다양한 조작 및 상호작용 모드를 동적으로 전환할 수 있다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2019-10-04
[포커스] 현업 아티스트와 디자이너는 3D 기술을 어떻게 활용할까: 렉터스 디자인 포럼 2019
8월 3일, 마루180에서 ‘렉터스 디자인 포럼 2019’이 진행되었다. 포럼을 개최한 렉터스는 ‘다 함께, 3D를 즐겁게’라는 모토 아래 3D 크리에이터를 위한 교육 플랫폼을 운영하고 있으며, 3D 기술을 직접 활용하는 현업 아티스트나 디자이너, 건축가들을 연사로 초청해 3D 기술의 가능성을 엿볼 수 있는 ‘렉터스 디자인 포럼’을 정기적으로 개최하고 있다. 이번 포럼에서는 3D 기술을 본인의 작업에 적극 활용하는 아티스트와 디자이너, 건축가 등 네 명의 연사를 초청했다. ■ 자료 제공: 렉터스   그림 1. 렉터스 디자인 포럼 2019 포스터(제공: 렉터스)   포럼의 첫 번째 연사는 스케일(SCALe)의 하태석 대표였다. 2012년 건축설계 및 스마트 건축 시스템 개발 회사인 스케일을 설립한 하태석 대표는 ‘적응도시’라는 개념을 통해 4차 산업혁명으로 인한 미래도시 변화를 이끌어 나가고 있다. 그는 또한 2017년 예술과 기술의 융합을 통한 미래도시를 준비하는 단체인 퓨처 시티 소사이어티(Future City Society)를 설립하기도 했다.  하태석 대표는 IT/미디어 융합 건축 프로젝트인 ‘티켓라운지 씬디’와 2010년 베니스비엔날레에서 스마트폰과 알고리즘을 통한 실시간 도시구축 작업인 ‘미분생활 적분도시’ 프로젝트에 적용된 기술적이고 건축적인 이야기를 중점적으로 다루며 강연을 진행했다.    그림 2. 스케일 하태석 대표(제공: 렉터스)   두 번째 연사는 앨리엇 우즈였다. 물리학을 전공한 앨리엇 우즈와 시각예술을 전공한 손미미는 ‘김치앤칩스’ 작가로 함께 활동하고 있다. 2009년부터 활동을 시작한 이들은 ‘Drawing in air’라는 개념으로 물성의 재료와 비물성의 빛이 만들어내는 공감각적 대형 설치물 작업을 구현하고 있다. 자연, 철학, 수학, 과학, 음악, 예술이 한 지점에서 출발해 서로 다른 여정을 치른 후 결국엔 다시 한 지점에서 조우한다는 것을 작업의 과정과 완성을 통해 배우며 실천하는 그룹이다.   그림 3. 김치앤칩스 앨리엇 우즈(제공: 렉터스)   우즈는 김치앤칩스의 대표 프로젝트인 라이트 배리어 시리즈를 보여주며, 3D 기술이 프로젝트에 어떻게 활용되고 있는지 차근차근 풀어나갔다. 특히 라이트 배리어 프로젝트는 세 가지 버전으로 구분해 발전한 프로젝트로, 활용되는 3D 기술이 어떻게 발전되어 왔는지 확인해 볼 수 있었다.   그림 4. 라이트 배리어(Light Barrier 3rd Edition)(제공: 김치앤칩스)   세 번째 연사인 이승근 대표는 각 분야의 전문 비주얼 아티스트로 구성된 기업 셔더를 이끌고 있다. 셔더는 브랜드 혹은 제품의 히스토리와 아이덴티티를 비주얼 아트로 광고하는 광고 제작/기획사다. 프로젝션 매핑을 통한 혼합현실(Mixed Reality)을 구현하며 가구 및 인테리어 소품에 적용을 통해 소비자에게 특별한 경험을 제공한다.   그림 5. 셔더 이승근 대표(제공: 렉터스)   이승근 대표는 이번 포럼에서 직접 작품을 만들어내는 과정을 선보였다. 프로젝션 매핑에 사용하는 배경이 만들어지는 과정을 상세히 알려주고, 이미지 데이터를 편집하고 가공하는 과정을 직접 시연했다. 미디어 아트 작품이 만들어지는 과정을 평소에 볼 기회가 많이 없었기 때문이었을까. 셔더 이승근 대표의 프레젠테이션 내내 여기저기서 놀람의 탄성이 터졌다.   그림 6. Artwork Projection Mapping, SAI Event(제공: 셔더)   마지막 연사인 국형걸 교수는 건축디자인연구소 HGA(HG-Architecture)를 운영하고 있다. 공간, 재료, 형태, 대지, 그리고 인간을 통합하는 창의적인 건축디자인 작업을 추구한다. 건축디자인연구소 HGA에서는 경험과 장소에 대한 미래지향적 자세를 바탕으로, 공간 구조물에서부터 건물/도시에 이르기까지 다양한 스케일에서의 건축 작업을 진행한다. 건축의 확장된 외연의 경계에서, 살아있는 건축, 만드는 건축에 대한 끊임없는 실험과 도전을 통해 건축의 새로운 영역을 개척하고자 한다.    그림 7. HG-Architecture 국형걸 교수(제공: 렉터스)   국형걸 교수는 알고리즘을 이용해 3D 모델을 디자인하고, 이를 실제 구축하기 위해 3D 기술을 사용하는 일련의 과정을 재미있게 풀어 설명했다. 3D 기술 활용이 작품을 디자인하는 데에 그치는 것이 아니라, 이를 실제로 구현해 내는 데에도 큰 역할을 한다는 점을 특히 강조했다.   그림 8. Solar Pine(제공: HG-Architecture)   ‘네트워킹 세션’은 렉터스 디자인 포럼을 좀 더 돋보이게 하는 시간이다. 연사들과 함께 참여한 사람이 자유롭게 이야기하며 소통하는 네트워킹 세션은 시야를 풍부하게 넓히고 비슷한 관심사로 친구들을 사귈 수 있는 기회가 되었다. 이번 포럼을 주최한 렉터스 박상근 공동대표는 “4차 산업혁명의 핵심 키워드로 자리잡은 3D 기술을 적극적으로 활용하고 있는 현업 아티스트와 디자이너를 모시고 이런 기술이 실제로 어떻게 활용되고 있는지 알아보는 지식과 경험의 장을 마련하고자 포럼을 준비했다”고 밝혔다.    그림 09. 네트워킹 세션(제공: 렉터스)   렉터스의 한기준 공동대표는 “이번 포럼에 연사로 모신 분들은 모두 현업에서 본인의 작품에 3D 기술을 적극적으로 활용하고 있는 중”이라며, “평소에 궁금했던 작품 제작 과정까지 상세히 설명하는 자리였기에 많은 사람들에게 도움이 될 것”이라고 말했다.  렉터스 고영준 CCO는 “포럼을 준비하는 데에 오랜 시간이 걸렸지만 성공적으로 주최하고 마무리해 뿌듯하다”며, “렉터스 디자인 포럼은 매년 더 좋은 콘텐츠로 이어나갈 예정”이라고 말했다. 렉터스 황일현 CTO는 “3D 교육을 진행하는 플랫폼으로서 렉터스가 당연히 주최하고 진행해야 할 포럼”이라며 “새로운 3D 기술에 기민하게 반응하며 포럼을 기획해 나갈 것”이라고 밝혔다.   그림 10. 렉터스 디자인 포럼 2019 전경(제공: 렉터스)     기사 내용은 PDF로도 제공됩니다.
작성일 : 2019-09-01
라데온 프로 WX 8200 사용자 리뷰
고품질 3D 콘텐츠 제작을 위한 합리적 eGPU 선택   ■ 문영우 | 아이원스튜디오의 대표로 프로젝션 매핑과 모션그래픽 등 3D 기반 콘텐츠를 제작하고 있다. 홈페이지 | www.eye1studio.co.kr 필자는 맥슨 시네마 4D(Maxon Cinema 4D)의 공인 인스트럭터이며 프로젝션 매핑(Projection Mapping)과 모션그래픽(Motiongraphic)을 주업으로 수년간 일하고 있다. 프로젝션 매핑에는 밀루민(Millumin)과 터치디자이너(Touchdesigner)를 사용하며, 콘텐츠 제작에는 시네마 4D와 다빈치 리졸브(Davinci Resolve) 등을 주로 사용한다. 콘텐츠 제작물의 대부분은 3D 기반으로 시네마 4D와 윈도우 기반의 옥테인 렌더러(Octane Render)를 사용한다. 제작하는 콘텐츠의 대부분은 대형 신(scene)으로 가로 10000px × 세로 1080px를 넘어서는 작업이 많다. 이렇다 보니 소프트웨어 및 하드웨어는 GPU 가속 기능에 전적으로 의존한다. 현재는 GEFORCE GTX 1080Ti 12개와 Titan Xp 3개를 렌더팜으로 사용하고 있다. 그림 1. 필자가 보유한 옥테인 렌더 팜(1080Ti×8, 윈도우 7) 프로젝션 매핑에 사용되는 소프트웨어는 맥OS 기반이 많기 때문에 주로 맥을 사용한다. 또한 외부 출장 작업이 많기 때문에 휴대가 용이한 맥북 프로(2018)를 주로 사용하며, 최종 설치물은 데스크톱 맥으로 포팅해서 마무리한다. 프로젝트 매핑에서 주된 화두는 다중 출력(Multiple Outputs)이다. 일반 데스크톱에서는 모니터 1~4개의 환경이 대부분이지만, 프로젝션 매핑에서는 8~16개 이상의 프로젝터를 동원하는 경우가 많다. 그림 2. 대명리조트 델피노 지하 통로의 디지털 프레스트(Digital Forest) 프로젝션. 양면 15360px×1080px중 우측면 7680px×1080px 크기이며, FHD 프로젝터 8대를 사용했다. 애플은 2012년 타워형 맥 프로(Mac Pro)를 단종하고 실린더형 맥 프로를 출시하였으나 다중 모니터 출력에 제한이 많다. 실린더형 맥 프로는 AMD FirePro D500(D700)을 탑재하고 있으며  최대 6개의 모니터 출력을 얻을 수 있다. 스플리터(Splitter, Datapath FX4) 등을 이용하면 더 많은 프로젝터와 연결할 수 있지만 프로세싱 능력(D700의 경우 3.5 TFLOPs) 및 발열 문제가 있다. 이후 출시된 아이맥 프로(iMac Pro)는 실린더형 맥 프로의 대안으로 프로세싱 파워(Vega 64, 11.0 TFLOPs)와 발열에 큰 문제가 없다. 기본 구성에  Vega 64를 추가하는 경우 약 700만원이 된다. 썬더볼트 3 to 듀얼 HDMI를 이용하는 경우 4개의 4K 60Hz 출력을 얻을 수 있고, 스플리터(Datapath FX4)를 이용하면 총 16개의 1080p 60Hz의 출력을 얻을 수도 있다. 그러나 클라이언트는 같은 품질과 성능 대비 항상 저렴한 하드웨어를 원하기 때문에 이 조합이 관철되는 경우는 꽤나 드물다. 콘텐츠 제작비, 프로젝터 구매 비용, 유지보수 비용 등이 합해지면 전체 견적이 상당해지기 때문이다. 따라서 저사양 맥 미니(Mac mini) 2018과 eGPU(외장 GPU)의 조합은 합리적인 고려 대상이 된다. 맥 미니 2018에는 GPU가 없지만 썬더볼트 3가 있기 때문에 고사양 eGPU는 아이맥 프로 및 맥 프로의 훌륭한 대안이 될 수도 있다. 이번 테스트에 사용된 AMD의 라데온 프로(Radeon Pro) WX 8200는 합리적인 가격대로 실시간 시각화, 가상 현실(VR) 및 포토리얼리스틱(photorealistic) 렌더링을 할 수 있는 고성능의 워크스테이션 그래픽카드이다. 라데온 프로 WX 8200 그래픽카드는 전문 디자인 및 렌더링 작업을 쉽게 가속화하는 향상된 성능을 제공하며 디자인, 제조, 미디어 및 엔터테인먼트 분야는 물론 건축, 엔지니어링 및 건설(AEC) 등 분야에서 제품 개발의 모든 단계를 수행할 수 있도록 한다.  AMD 라데온 프로 WX 8200 그래픽카드는 향상된 베가 GPU 아키텍처 기반의 14nm 핀펫(FinFET) 공정으로 설계됐으며, 시각 디자인의 전 과정에서 요구되는 대규모 다중 모델을 실행할 수 있는 성능을 제공한다. 또한, 어도비 CC(Adobe CC), 솔리드웍스, 3ds 맥스, 레빗 등 많이 쓰이는 전문 애플리케이션 인증을 획득함으로써 실시간 시각화, 물리 기반 렌더링 및 가상 현실 등의 워크로드를 수행하는데 적합한 시스템을 제공한다. 그림 3. 맥OS 모하비 그림 4. 테스트에 사용한 eGPU 그림 5. eGPU에 장착된 라데온 프로 WX 8200 그림 6. eGPU와 맥북 프로의 연결 이번 테스트에 사용된 하드웨어 및 소프트웨어는 다음과 같다.  eGPU AMD Radeon Pro WX 8200(8GB HBM2 VRAM/Stream 3,584/FP32 10.75TFLOPs) Razer Core X V2 eGPU Enclosure(썬더볼트 3) 맥북 프로 2018 : i7 2.2Ghz, 1TB SSD, 32GB RAM, Radeon Pro 560X(4GB GDDR5 VRAM/Stream 1024/FP32 2.6TFLOPs) 아이맥 프로 2018 : 3.2GHz 8코어, 32GB RAM, 1TB SSD, Radeon Pro Vega 56(8GB HBM2 VRAM/Stream 3584/FP32 9.0TFLOPs) 모니터 : 델 UHD 모니터 U2718Q, UP3214Q, UP3216Q 소프트웨어 Maxon Cinema 4D R20(3D) Davinci Resolve 15.2(편집, 컬러 그레이딩) Anomes Millumin 3.0(프로젝션 매핑) Derivative Touchdesigner 099 Pro 2019(프로젝션 매핑) 테스트용 영상 소스는 비상업용으로 공개된 Puppies Bath in 4K 24fps를 사용했다. 대부분의 모니터는 60Hz의 재생 빈도(Refresh Rate)를 사용하므로, 원본 24fps를 29.97fps로 변환 후 CPU의 영향을 받지 않도록 HAP Codec 1.2(하드웨어 디코드 지원)으로 변환하였다. 애플 시스템에서 eGPU를 사용할 때 eGPU의 가속기능을 활용하려면 eGPU와 연결된 모니터를 메인 모니터로 만들어야 한다. 이 설정은 디스플레이 제어판 → 정렬에서 상단 메뉴바를 eGPU에 연결된 모니터로 옮기면 된다. eGPU의 가속기능을 활용하려면 앱을 eGPU와 연결된 모니터에서만 사용해야 한다. 다빈치 리졸브 - 프로세싱 인코딩 테스트 테스트 환경 맥북 프로 2018에 eGPU로 Radeon WX 8200을 사용했으며, OS 레벨의 프로그램 설정과 하드웨어 조정은 애플이 제시한 방법을 기준으로 했다. 테스트 방법 Puppies Bath in 4K 24fps MP4 원본에 두개의 시리얼(Serial) 노드를 추가하고, 컬러를 조정한 후  퀵타임(Quicktime, H.264)로 인코딩한다. 이 테스트는 게임처럼 화면 리프레시(갱신) 속도와 관계 없는 순수한 GPU 프로세싱 테스트이다. 테스트 결과 맥OS의 맥북 프로 + WX8200 eGPU에서는 초당 35~38 프레임으로 렌더링했다. 비교를 위해 윈도우 환경에서 1080Ti 그래픽카드를 사용한 테스트에서는 초당 30~34 프레임으로 렌더링했다. 그림 7 그림 8. 맥OS 테스트 결과 그림 9. 윈도우 테스트 결과 GPU의 프로세싱에 전적으로 의존하는 다빈치 리졸브에서 상당한 능력을 보여주고 있다. 라데온 WX8200은 스펙상 지포스 GTX 1080Ti와 비슷하지만 1080Ti를 상회하는 능력을 보여준다. Genarts Sapphire 필터를 사용하면 결과가 좀 달랐다. Genarts Sapphire 필터는 GPU를 지원하지만 AMD에는 아직 최적화가 덜 된 것으로 보인다. Glow같은 필터를 사용하면 WX 8200은 3~4프레임, 1080Ti의 경우 6~7프레임으로 나왔다. 시네마 4D - 뷰포트 드로잉 속도 테스트 환경 OS 레벨의 프로그램 설정과 하드웨어 조정은 애플이 제시한 방법을 기준으로 했다. 테스트 방법 시네마 4D에서 10×10×10개의 큐브(Cube)를 만들고(Render Instance가 아님) Random Effector로 애니메이션을 주었다. CPU가 개입하지 않도록 미리 계산(Bake - Cache)하였다. 테스트 결과 맥OS 맥북 프로 + eGPU 환경에서는 52~55fps, 윈도우 + 1080Ti 환경에서는 45~48fps가 나왔다. 3D 프로그램에서 화면 리드로잉 스피드는 OpenGL 성능에 좌우된다. 애플이 제시한 방법에 따라 설정하면 eGPU에서 연결된 모니터로 바로 전송되므로, 호스트 컴퓨터의 성능과 관계 없이 OpenGL 성능 저하가 거의 일어나지 않다. eGPU를 이용한 게임 사용시에도 유사한 원리가 적용된다. 또한 윈도우 + 1080Ti보다 우수한 것으로 나타났다. 그림 10. 맥OS 테스트 결과 그림 11. 윈도우 테스트 결과 시네마 4D - 프로 렌더 테스트 테스트 환경 맥북 프로 2018 + WX 8200(eGPU)으로 테스트를 진행했다. OS 레벨의 프로그램 설정과 하드웨어 조정은 애플이 제시한 방법을 기준으로 했다. 테스트 방법 3D 테스트에서 자주 사용하는 코넬박스를 이용했다. 시네마 4D R20 버전이며 Interation은 400을 사용하였다. 테스트 결과 그림 12 그림 13. 맥OS 테스트 결과 그림 14. 윈도우 테스트 결과     맥북 프로 Macbook Pro + WX 8200 : 2분 50초 맥북 프로 내장 560x : 11분 15초 윈도우 + Titan Xp : 2분 28초 윈도우 + 1080Ti : 2분 44초 AMD의 프로 렌더 테스트에서 공식 스펙에 나온 FP32 10.75TFLOPs의 능력에 걸맞는 결과를 보여주고 있다. 대부분의 GPU 렌더러는 단정밀도(FP32)로만 계산한다. 밀루민/맥북 프로 + eGPU - 다중 출력 테스트 테스트 환경 OS 레벨의 프로그램 설정과 하드웨어 조정은 애플이 제시한 방법을 기준으로 했다.  테스트 방법 매핑 소프트웨인 밀루민으로 테스트하였다.  영상 원본은 24fps이므로 모니터 리프레시율(60Hz)에 적합하도록 29.97fps로 변환하였고, 하드웨어 디코드를 사용하도록 HAP 코덱을 사용했다. 또한 데이터 전송률 테스트도 겸하기 위해 개별 영상 파일 3개를 사용했다. 개별 파일의 크기는 2,800프레임/MP4 300MB/Mov HAP 6.4G이다. Quicktime/HAP은 MP4에 비해 크기가 크지만 화질이 우수하고 해상도 제한이 거의 없으며, GPU 디코딩을 지원하기 때문에 프로젝션시 자주 사용된다. 3840×2160, 60Hz로 출력하였으며 총 3개의 UHD 출력을 만들었다. 이 테스트에서는 모니터간 싱크를 가장 중요하게 보았다. 테스트 결과 약 3분 이내에서 1~2프레임 오차가 있었다. 이 후 오차가 줄어 간헐적으로 약 1프레임의 오차가 있었다. AMD S400, Nvidia Quadro Sync 등에서 지원되는 하드웨어 Framelock이나 Genlock을 사용하고 있지 않으므로 1 프레임은 허용 오차로 볼 수 있다. 또한 개별 영상 3개를 사용했기 때문에 SSD에서 데이터 전송시 읽기 지연과 맥북 프로의 발열에 의한 성능 저하가 원인일 수도 있다. 그림 15 맥 프로/아이맥 프로 + eGPU/터치디자이너 - 다중 출력 테스트 테스트 환경 OS 레벨의 프로그램 설정과 하드웨어 조정은 애플이 제시한 방법을 기준으로 했다. 테스트 방법 매핑 소프트웨어인 터치디자이너로 테스트하였다.  영상 원본은 24fps이므로 모니터 리프레시율(60Hz)에 적합하도록 29.97fps로 변환하였고, 하드웨어 디코드를 사용하도록 HAP 코덱을 사용했다. 또한 데이터 전송률 테스트도 겸하기 위해 개별 영상 파일 3개를 사용했다. 개별 파일의 크기는 2800프레임/MP4 300MB/Mov HAP 6.4GB이다. Quicktime/HAP은 MP4에 비해 크기가 크지만 화질이 우수하고 해상도 제한이 거의 없으며, GPU 디코딩을 지원하기 때문에 프로젝션시 자주 사용된다. 아이맥의 자체 모니터와 2개의 4K 모니터를 이용하고 3840×2160, 60Hz로 출력하였다. 또한 아이맥 프로 + eGPU와 3대의 4K 모니터로도 테스트하였다. 이 테스트에서는 모니터간 싱크를 가장 중요하게 보았다. 테스트 결과 간헐적이지만 0.5~1프레임의 오차가 있었는데, 아이맥 프로 단독 테스트에서는 오차가 거의 없었다. 아이맥 프로의 내부 GPU는 온보드 상태이므로 PCIe Gen3×16의 대역폭을 최대한 활용하고 있는 것으로 여겨진다. 썬더볼트 3의 대역폭은 1/4 수준이므로 아이맥 프로 + eGPU에서 오차가 조금 더 나왔을 수 있다. 그림 16 그림 17 맺음말 이번 테스트를 통해서 eGPU의 많은 가능성을 보았다. 현재 맥 미니를 eGPU 호스트로 구성하는 경우(i7 3.2GHz 6코어, 32GB RAM, 1TB SSD로 구성 시) 약 315만원이며 이는 동급 윈도우 기반 하드웨어를 상위하는 가격이 된다. 그러나 맥OS는 비교적 안정적이며 다양한 영상 및 오디오용 인터랙션 소프트웨어를 지원하고 있기 때문에 대부분의 콘텐츠 제작자에게 항상 우선시되는 선택이다. 맥OS는 eGPU에 대한 지원을 점점 강화하고 있으며 AMD GPU도 BIOS 업데이트를 통한 성능 향상 등의 개발에 박차를 가하고 있다. 또한, OS X에서 AMD GPU는 별도의 설정 없이 썬더볼트 3와 연결하는 것만으로 고성능 GPU를 eGPU로 바로 이용할 수 있어, 하드웨어 지식이 없어도 자신의 컴퓨터 성능을 손쉽게 업그레이드할 수 있다. 또한 원하는 경우 eGPU 두 개를 사용할 수도 있다.(썬더볼트 3 컨트롤러가 2개인 맥에 한정) 맥OS 모하비(Mojave)부터는 엔비디아 GPU를 지원하지 않고 있다. 때문에, AMD GPU는 맥 OS용 eGPU에서 현재 유일한 선택이다. 분리 이동이 가능한 eGPU는 여러 대의 맥을 보유한 경우 교차 활용으로 하드웨어 구매 비용 절약에도 큰 도움이 된다.   애플의 아이맥 프로는 올인원 타입에서 최상급으로 출시되었기 때문에, 차기 맥 프로는 이를 상회하기 위해 타워형 맥으로 회귀할 것이라고 조심스럽게 예측한다. 이때 AMD의 FirePro 및 S400(sync)이 지원되기를 기대해 본다.     기사 상세 내용은 PDF로 제공됩니다.
작성일 : 2019-03-03